تراشه جدید مصرف برق شبکه های عصبی را تا 95 درصد کاهش می دهد
نوشته شده توسط : vacumblupom@gmail.com

پیشرفت های اخیر در سیستم های هوش مصنوعی مانند برنامه های گفتار یا تشخیص چهره با استقبال شبکه های عصبی همراه شده است ، تراکم های متراکم به هم پیوسته از پردازنده های اطلاعات ساده که یاد می گیرند با تجزیه و تحلیل مجموعه های عظیمی از داده های آموزشی ، وظایف خود را انجام دهند.


اما شبکه های عصبی بزرگ هستند و محاسبات آنها پرانرژی است ، بنابراین برای دستگاه های دستی کاربردی نیستند. اکثر برنامه های تلفن های هوشمند که به شبکه های عصبی متکی هستند ، به سادگی داده ها را در سرورهای اینترنتی بارگذاری می کنند ، که پردازش می کنند و نتایج را به تلفن ارسال می کنند.

اکنون ، محققان MIT یک تراشه هدف خاص را تولید کرده اند که سرعت محاسبات شبکه عصبی را سه تا هفت برابر نسبت به پیشینیان خود افزایش می دهد ، ضمن اینکه مصرف انرژی 94 تا 95 درصد را کاهش می دهد. این امر می تواند عملی بودن شبکه های عصبی را به صورت محلی بر روی تلفن های هوشمند یا حتی جاسازی آنها در لوازم خانگی عملی کند.

Avishek Biswas می گوید: "مدل پردازنده کلی این است که در برخی از قسمت های تراشه یک حافظه وجود دارد و در قسمت دیگری از تراشه یک پردازنده وجود دارد. وقتی این محاسبات را انجام می دهید داده ها را بین آنها به عقب و جلو حرکت می دهید." ، یک دانشجوی فارغ التحصیل MIT در مهندسی برق و علوم کامپیوتر ، که منجر به توسعه تراشه جدید شد.

وی گفت: "از آنجا که این الگوریتم های یادگیری ماشینی به محاسبات زیادی احتیاج دارند ، این انتقال به عقب و چهارم داده ها بخش اصلی مصرف انرژی است. آیا می توانیم این قابلیت dot-product را درون حافظه پیاده سازی کنیم تا نیازی به انتقال این داده ها به جلو و عقب نباشد؟ "

بیسوا و مشاور پایان نامه وی ، آنانتا چاندراكسان ، معاون دانشكده مهندسی MIT و استاد مهندسی ونوار بوش ، مهندسی برق و علوم رایانه ، تراشه جدید را در مقاله ای توصیف می كنند كه Biswas این هفته در كنفرانس بین المللی مدارهای جامد حالت ارائه می دهد.

برگشت به آنالوگ

شبکه های عصبی به طور معمول در لایه ها قرار می گیرند. یک گره پردازش تک در یک لایه از شبکه عموماً داده ها را از چندین گره در لایه زیر دریافت می کند و داده ها را به چندین گره در لایه بالا منتقل می کند. هر اتصال بین گره ها دارای "وزن" خاص خود هستند ، که نشان می دهد خروجی یک گره در محاسبات انجام شده توسط بعدی چقدر نقش بزرگی خواهد داشت. آموزش شبکه مسئله ای است برای تعیین وزن آن.



گره دریافت داده از گره های متعدد در لایه زیر ، هر ورودی را با وزن اتصال مربوطه ضرب می کند و نتایج را جمع می کند. این عمل - جمع ضربها - تعریف کالای نقطه است. اگر محصول نقطه از مقداری آستانه فراتر رود ، گره آن را به گره های لایه بعدی منتقل می کند ، از طریق اتصالات با وزن مخصوص به خود.

یک شبکه عصبی یک انتزاع است: "گره ها" فقط وزنی هستند که در حافظه کامپیوتر ذخیره می شوند. محاسبه یک محصول dot معمولاً مستلزم واکشی وزنی از حافظه ، واکشی آیتم داده های مرتبط ، ضرب آن دو ، ضبط نتیجه در جایی و سپس تکرار عملکرد برای هر ورودی به یک گره است. با توجه به اینکه یک شبکه عصبی هزاران یا حتی میلیون ها گره خواهد داشت ، داده های زیادی برای جابجایی وجود دارد.

اما این توالی عملیات فقط تقریب دیجیتالی از اتفاقاتی است که در مغز اتفاق می افتد ، جایی که سیگنال هایی که در امتداد نورون های مختلف حرکت می کنند در یک "سیناپس" یا شکاف بین بسته های نورونها ملاقات می کنند. میزان شلیک نورون ها و سیگنال های الکتروشیمیایی که از سیناپس عبور می کنند با مقادیر داده ها و وزن مطابقت دارند. تراشه جدید محققان MIT با تکثیر وفادارتر به مغز ، کارآیی را بهبود می بخشد.

در تراشه مقادیر ورودی یک گره به ولتاژهای الکتریکی تبدیل شده و سپس با وزنهای مناسب ضرب می شوند. فقط ولتاژهای ترکیبی دوباره به یک نمایش دیجیتال تبدیل می شوند و برای پردازش بیشتر ذخیره می شوند.

بدین ترتیب تراشه می تواند برای یک گره واحد ، محصولات نقطه ای را برای چندین گره 16 — به صورت همزمان و در یک مرحله واحد محاسبه کند ، بجای اینکه بین پردازنده و حافظه برای هر محاسبه خاموش شود.

همه یا هیچ چیز

یکی از کلیدهای سیستم این است که تمام وزن ها 1 یا 1 است. این بدان معناست که آنها می توانند در درون حافظه به عنوان سوئیچ های ساده ای که یا یک مدار را میبندند یا باز می شوند ، پیاده سازی شوند. کارهای نظری اخیر نشان می دهد که شبکه های عصبی که فقط با دو وزن تمرین می شوند ، باید دقت کمی را از دست دهند - جایی بین 1 تا 2 درصد.

 





:: بازدید از این مطلب : 81
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : دو شنبه 26 خرداد 1399 | نظرات ()
مطالب مرتبط با این پست
لیست
می توانید دیدگاه خود را بنویسید


نام
آدرس ایمیل
وب سایت/بلاگ
:) :( ;) :D
;)) :X :? :P
:* =(( :O };-
:B /:) =DD :S
-) :-(( :-| :-))
نظر خصوصی

 کد را وارد نمایید:

آپلود عکس دلخواه: